Métodos de Predictivos (Clasificación o Aprendizaje-Supervisado)


Índices de Calidad del Modelo y Funciones Auxiliares

Se necesita cargar las siguientes librerías

Muestra la distribución de la variable a predecir

Muestra la distribución de una variable numérica según la variable a predecir

Muestra la distribución de una variable categórica según la variable a predecir

poder.predictivo.categorica<-function(datos,variable.predecir,variable.comparar,ylab="",xlab="", 
                                      main=paste("Densidad de la variable",variable.comparar,'según',variable.predecir),
                                      col=NA){
  gg_color <- function (n) {
     hues <- seq(15, 375, length = n + 1)
     hcl(h = hues, l = 65, c = 100)[1:n]
  }
  if(missing(variable.predecir) | !(variable.predecir %in% colnames(datos))){
    stop("variable.predecir tiene que ser ingresada y ser un nombre de columna", call. = FALSE )
  }
  if(missing(variable.comparar) | !(variable.comparar %in% colnames(datos)) | 
     !(is.factor(datos[,variable.comparar]) | is.character(datos[,variable.comparar])) ){
    stop("variable.comparar tiene que ser ingresada y ser un nombre de columna categórica", call. = FALSE )
  }
  
  if(is.character(datos[,variable.predecir]) | is.factor(datos[,variable.predecir])){
    if(length(col) == 0 || is.na(col)){
      col <- gg_color(length(unique(datos[,variable.predecir])))
    }else{
      col <- rep(col,length(unique(datos[,variable.predecir])))
    }
    
    datos2 <- datos %>%
      dplyr::group_by_(variable.comparar, variable.predecir) %>%
      dplyr::summarise(count = n())
    
    if(variable.comparar != variable.predecir){
      datos2 <-   datos2 %>% dplyr::group_by_(variable.comparar)
    }
    datos2 <- datos2 %>% dplyr::mutate(prop = round(count/sum(count),4))
  
    ggplot(data = datos2, mapping = aes_string(x = variable.comparar, y = "prop", fill = variable.predecir)) +
      geom_col(position = "fill") +
      geom_text(aes(label = glue("{percent(prop)} ({count})")), position = position_stack(vjust = .5), color = "white") +
      scale_y_continuous(label = percent) +
      labs(y =  xlab, x  = ylab, title = main) +
      scale_fill_manual(values = col, name = variable.predecir) +
      theme(legend.position = "bottom")+
      coord_flip()
    
  }else{
    stop("La variable a predecir tienen que ser de tipo factor o character", call. = FALSE )
  }
}

Índices para matrices NxN


El método de los K vecinos más cercanos

Ejemplo Iris

'data.frame':   150 obs. of  5 variables:
 $ s.largo: num  5.1 4.9 4.7 4.6 5 5.4 4.6 5 4.4 4.9 ...
 $ s.ancho: num  3.5 3 3.2 3.1 3.6 3.9 3.4 3.4 2.9 3.1 ...
 $ p.largo: num  1.4 1.4 1.3 1.5 1.4 1.7 1.4 1.5 1.4 1.5 ...
 $ p.ancho: num  0.2 0.2 0.2 0.2 0.2 0.4 0.3 0.2 0.2 0.1 ...
 $ tipo   : Factor w/ 3 levels "setosa","versicolor",..: 1 1 1 1 1 1 1 1 1 1 ...

Distribución de las categorías

Predicción

Vamos a generar al azar una tabla de testing de tamaño 50 y una tabla de aprendizaje de tamaño 100.

Paquete kknn

Se cargan las librerías

Se genera el modelo


Call:
train.kknn(formula = tipo ~ ., data = taprendizaje, kmax = 9)

Type of response variable: nominal
Minimal misclassification: 0.04
Best kernel: optimal
Best k: 5

Se genera la predicción

 [1] setosa     versicolor setosa     versicolor virginica  setosa    
 [7] setosa     versicolor versicolor virginica  virginica  setosa    
[13] versicolor setosa     virginica  setosa     versicolor setosa    
[19] setosa     versicolor setosa     setosa     setosa     setosa    
[25] versicolor virginica  versicolor virginica  virginica  versicolor
[31] setosa     versicolor setosa     versicolor setosa     versicolor
[37] setosa     setosa     virginica  setosa     virginica  versicolor
[43] versicolor virginica  versicolor virginica  virginica  virginica 
[49] setosa     virginica 
Levels: setosa versicolor virginica

Se genera la matriz de confusión

            prediccion
             setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Índices de calidad de la predicción

$`Matriz de Confusión`
            prediccion
             setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

$`Precisión Global`
[1] 0.96

$`Error Global`
[1] 0.04

$`Precisión por categoría`
    setosa versicolor  virginica 
 1.0000000  0.9375000  0.9285714 

Paquete trainR

Se cargan las librerías

Se genera el modelo


Call:
kknn::train.kknn(formula = tipo ~ ., data = taprendizaje, kmax = 9)

Type of response variable: nominal
Minimal misclassification: 0.04
Best kernel: optimal
Best k: 5

Se genera la predicción

 [1] setosa     versicolor setosa     versicolor virginica  setosa    
 [7] setosa     versicolor versicolor virginica  virginica  setosa    
[13] versicolor setosa     virginica  setosa     versicolor setosa    
[19] setosa     versicolor setosa     setosa     setosa     setosa    
[25] versicolor virginica  versicolor virginica  virginica  versicolor
[31] setosa     versicolor setosa     versicolor setosa     versicolor
[37] setosa     setosa     virginica  setosa     virginica  versicolor
[43] versicolor virginica  versicolor virginica  virginica  virginica 
[49] setosa     virginica 
Levels: setosa versicolor virginica

Se genera la matriz de confusión

            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Índices de calidad de la predicción


Confusion Matrix:
            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Overall Accuracy: 0.9600
Overall Error:    0.0400

Category Accuracy:

       setosa   versicolor    virginica
     1.000000     0.937500     0.928571

Podemos omitir crear la matriz de confusión


Confusion Matrix:
            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Overall Accuracy: 0.9600
Overall Error:    0.0400

Category Accuracy:

       setosa   versicolor    virginica
     1.000000     0.937500     0.928571


Selección de Variables

Utilizando los datos que previamente cargamos

Podemos visualizar la distribución de las variables numéricas según la variable a predecir.

Predicción con selección de variables.

Utilizando los mismo datos para prueba (ttesting) y aprendizaje (taprendizaje) que creamos anteriormente.

Paquete kknn

Se cargan las librerías

Se genera el modelo


Call:
train.kknn(formula = tipo ~ p.largo + p.ancho, data = taprendizaje,     kmax = 9)

Type of response variable: nominal
Minimal misclassification: 0.03
Best kernel: optimal
Best k: 1

Se genera la predicción

 [1] setosa     versicolor setosa     versicolor virginica  setosa    
 [7] setosa     versicolor versicolor virginica  virginica  setosa    
[13] versicolor setosa     virginica  setosa     versicolor setosa    
[19] setosa     versicolor setosa     setosa     setosa     setosa    
[25] versicolor virginica  versicolor virginica  virginica  versicolor
[31] setosa     versicolor setosa     versicolor setosa     versicolor
[37] setosa     setosa     virginica  setosa     virginica  versicolor
[43] versicolor virginica  versicolor virginica  virginica  virginica 
[49] setosa     virginica 
Levels: setosa versicolor virginica

Se genera la matriz de confusión

            prediccion
             setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Índices de calidad de la predicción

$`Matriz de Confusión`
            prediccion
             setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

$`Precisión Global`
[1] 0.96

$`Error Global`
[1] 0.04

$`Precisión por categoría`
    setosa versicolor  virginica 
 1.0000000  0.9375000  0.9285714 

Paquete trainR

Se cargan las librerías

Se genera el modelo


Call:
kknn::train.kknn(formula = tipo ~ p.largo + p.ancho, data = taprendizaje,     kmax = 9)

Type of response variable: nominal
Minimal misclassification: 0.03
Best kernel: optimal
Best k: 1

Se genera la predicción

 [1] setosa     versicolor setosa     versicolor virginica  setosa    
 [7] setosa     versicolor versicolor virginica  virginica  setosa    
[13] versicolor setosa     virginica  setosa     versicolor setosa    
[19] setosa     versicolor setosa     setosa     setosa     setosa    
[25] versicolor virginica  versicolor virginica  virginica  versicolor
[31] setosa     versicolor setosa     versicolor setosa     versicolor
[37] setosa     setosa     virginica  setosa     virginica  versicolor
[43] versicolor virginica  versicolor virginica  virginica  virginica 
[49] setosa     virginica 
Levels: setosa versicolor virginica

Se genera la matriz de confusión

            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Índices de calidad de la predicción


Confusion Matrix:
            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Overall Accuracy: 0.9600
Overall Error:    0.0400

Category Accuracy:

       setosa   versicolor    virginica
     1.000000     0.937500     0.928571

Podemos omitir crear la matriz de confusión


Confusion Matrix:
            prediction
real         setosa versicolor virginica
  setosa         20          0         0
  versicolor      0         15         1
  virginica       0          1        13

Overall Accuracy: 0.9600
Overall Error:    0.0400

Category Accuracy:

       setosa   versicolor    virginica
     1.000000     0.937500     0.928571


Ejemplo Scoring

'data.frame':   5000 obs. of  6 variables:
 $ MontoCredito     : int  14327 111404 21128 15426 10351 27060 243369 16300 18319 107037 ...
 $ IngresoNeto      : Ord.factor w/ 2 levels "1"<"2": 1 1 1 2 1 1 1 2 2 2 ...
 $ CoefCreditoAvaluo: Ord.factor w/ 12 levels "1"<"2"<"3"<"4"<..: 1 1 1 1 1 1 1 1 1 1 ...
 $ MontoCuota       : Factor w/ 4 levels "Alto","Bajo",..: 4 4 4 4 4 4 4 4 4 4 ...
 $ GradoAcademico   : Factor w/ 2 levels "Bachiller","Licenciatura": 1 1 1 1 1 1 1 1 1 1 ...
 $ BuenPagador      : Factor w/ 2 levels "No","Si": 2 2 2 2 2 2 2 2 2 2 ...

Distribución de las categorías

Predicción

Vamos a generar al azar una tabla de testing con 15% de los datos y una tabla de aprendizaje con 85%

Paquete kknn

Se cargan las librerías

Se genera el modelo


Call:
train.kknn(formula = BuenPagador ~ ., data = taprendizaje, kmax = floor(sqrt(nrow(datos))))

Type of response variable: nominal
Minimal misclassification: 0.05458824
Best kernel: optimal
Best k: 8

Se genera la predicción

  [1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
 [24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
 [47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
 [70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
 [93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] Si Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si No Si
[139] Si Si Si No Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si No Si No Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si No Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No
[300] Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[438] Si Si Si Si No No Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si No Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si No
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si No Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si No Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si No Si
Levels: No Si

Se genera la matriz de confusión

    prediccion
      No  Si
  No  73  29
  Si   8 640

Índices de calidad de la predicción

$`Matriz de Confusión`
    prediccion
      No  Si
  No  73  29
  Si   8 640

$`Precisión Global`
[1] 0.9506667

$`Error Global`
[1] 0.04933333

$`Precisión por categoría`
       No        Si 
0.7156863 0.9876543 

Paquete trainR

Se cargan las librerías

Se genera el modelo


Call:
kknn::train.kknn(formula = BuenPagador ~ ., data = taprendizaje,     kmax = floor(sqrt(nrow(datos))))

Type of response variable: nominal
Minimal misclassification: 0.05458824
Best kernel: optimal
Best k: 8

Se genera la predicción

  [1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
 [24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
 [47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
 [70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
 [93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] Si Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si No Si
[139] Si Si Si No Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si No Si No Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si No Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No
[300] Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[438] Si Si Si Si No No Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si No Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si No
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si No Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si No Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si No Si
Levels: No Si

Se genera la matriz de confusión

    prediction
real  No  Si
  No  73  29
  Si   8 640

Índices de calidad de la predicción


Confusion Matrix:
    prediction
real  No  Si
  No  73  29
  Si   8 640

Overall Accuracy: 0.9507
Overall Error:    0.0493

Category Accuracy:

           No           Si
     0.715686     0.987654

Podemos omitir crear la matriz de confusión


Confusion Matrix:
    prediction
real  No  Si
  No  73  29
  Si   8 640

Overall Accuracy: 0.9507
Overall Error:    0.0493

Category Accuracy:

           No           Si
     0.715686     0.987654


Selección de Variables

Utilizando los datos que previamente cargamos

Podemos visualizar la distribución de las variables numéricas y categóricas según la variable a predecir.

Predicción con selección de variables.

Utilizando los mismo datos para prueba (ttesting) y aprendizaje (taprendizaje) que creamos anteriormente.

Paquete kknn

Se cargan las librerías

Se genera el modelo


Call:
train.kknn(formula = BuenPagador ~ CoefCreditoAvaluo + MontoCuota +     IngresoNeto + GradoAcademico, data = taprendizaje, kmax = floor(sqrt(nrow(datos))))

Type of response variable: nominal
Minimal misclassification: 0.05529412
Best kernel: optimal
Best k: 19

Se genera la predicción

  [1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
 [24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
 [47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
 [70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
 [93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] No Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si Si Si
[139] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si Si Si No No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[300] Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si
[438] Si Si Si Si No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si Si Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si Si Si
Levels: No Si

Se genera la matriz de confusión

    prediccion
      No  Si
  No  62  40
  Si   5 643

Índices de calidad de la predicción

$`Matriz de Confusión`
    prediccion
      No  Si
  No  62  40
  Si   5 643

$`Precisión Global`
[1] 0.94

$`Error Global`
[1] 0.06

$`Precisión por categoría`
       No        Si 
0.6078431 0.9922840 

Paquete trainR

Se cargan las librerías

Se genera el modelo


Call:
kknn::train.kknn(formula = BuenPagador ~ CoefCreditoAvaluo +     MontoCuota + IngresoNeto + GradoAcademico, data = taprendizaje,     kmax = floor(sqrt(nrow(datos))))

Type of response variable: nominal
Minimal misclassification: 0.05529412
Best kernel: optimal
Best k: 19

Se genera la predicción

  [1] No Si No Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si No Si Si Si
 [24] Si No Si Si No Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si
 [47] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
 [70] Si Si No Si Si Si Si No Si Si No Si No Si Si Si Si Si Si Si Si Si Si
 [93] Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si
[116] No Si Si No Si Si No Si Si No No Si Si Si Si Si No Si Si Si Si Si Si
[139] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si
[162] Si Si Si Si No No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si No
[185] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[208] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[231] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[254] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si
[277] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No
[300] Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si Si Si Si Si
[323] Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[346] Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si
[369] Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[392] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si
[415] Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si
[438] Si Si Si Si No Si Si Si Si Si Si No No Si Si Si Si Si Si Si Si Si Si
[461] Si Si Si Si Si Si Si Si Si Si Si Si Si No Si No Si Si Si Si Si Si Si
[484] Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si No Si Si Si Si Si
[507] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si
[530] No No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si
[553] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No No Si Si Si Si Si
[576] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si Si
[599] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si
[622] Si Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si Si Si Si Si Si Si
[645] Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si Si No Si Si No Si Si Si
[668] Si Si No Si Si Si Si Si Si No Si Si No Si Si Si Si Si Si Si Si Si Si
[691] Si Si Si Si Si Si Si Si No No Si No Si Si Si Si Si Si Si Si Si Si Si
[714] No Si Si Si Si Si Si Si Si Si No Si Si Si Si Si Si No Si Si Si Si Si
[737] Si Si Si Si Si Si Si Si Si Si Si Si Si Si
Levels: No Si

Se genera la matriz de confusión

    prediction
real  No  Si
  No  62  40
  Si   5 643

Índices de calidad de la predicción


Confusion Matrix:
    prediction
real  No  Si
  No  62  40
  Si   5 643

Overall Accuracy: 0.9400
Overall Error:    0.0600

Category Accuracy:

           No           Si
     0.607843     0.992284

Podemos omitir crear la matriz de confusión


Confusion Matrix:
    prediction
real  No  Si
  No  62  40
  Si   5 643

Overall Accuracy: 0.9400
Overall Error:    0.0600

Category Accuracy:

           No           Si
     0.607843     0.992284